Aller au contenu principal
Fermer

Nvidia se concentre sur les avancées de l'IA pour vaincre la concurrence lors d'une mégaconférence
information fournie par Reuters 13/03/2026 à 11:01

((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))

* Nvidia fait face à la concurrence croissante de clients comme OpenAI et Meta

* Nvidia devrait dévoiler de nouveaux produits issus de l'acquisition de Groq pour 17 milliards de dollars

* La stratégie de Nvidia en matière d'IA se concentre sur l'inférence et les avancées en matière d'"IA agentique"

* Les serveurs de Nvidia axés sur le CPU s'attaquent au goulot d'étranglement de l'" orchestration d'agents "

par Stephen Nellis et Zaheer Kachwala

Lorsque Jensen Huang montera sur la scène d'un stade de hockey plein à craquer pour donner le coup d'envoi de la conférence annuelle des développeurs de Nvidia NVDA.O lundi, il est probable qu'il dévoilera des produits et des partenariats visant à maintenir le fabricant de puces d'IA en tête face à une concurrence croissante.

La Nvidia GTC, qui se tient au cœur de la Silicon Valley pendant presque une semaine, est devenue l'événement préféré du directeur général Huang pour présenter les avancées de Nvidia en matière d'IA dans les puces, les centres de données, son logiciel de programmation de puces CUDA, les assistants numériques connus sous le nom d'agents d'IA, et l'IA physique telle que les robots.

Cette année, l'événement de quatre jours est encore plus crucial, car les investisseurs chercheront à s'assurer que la stratégie de Nvidia consistant à réinvestir ses bénéfices dans l'écosystème de l'IA porte ses fruits. "Je m'attends à ce que Nvidia présente une mise à jour complète de sa feuille de route, de Rubin à Feynman, en mettant l'accent sur l'inférence, l'IA agentique, la mise en réseau et l'infrastructure de l'usine d'IA", a déclaré Jacob Bourne, analyste chez eMarketer, en utilisant les noms des générations actuelles et futures de puces de Nvidia.

Les puces de Nvidia sont au cœur de centaines de milliards de dollars d'investissements dans les centres de données par les gouvernements et les entreprises du monde entier, mais l'entreprise est confrontée à la concurrence d'autres fabricants de puces et même de certains de ses clients qui développent leurs propres puces. Les analystes ont déclaré à Reuters qu'ils s'attendaient à ce que le marché global des puces d'IA continue de croître, mais que la part de Nvidia diminue quelque peu, car le marché des puces d'IA évolue rapidement vers un point où les agents d'IA font des allers-retours entre les applications informatiques pour effectuer des tâches pour le compte des humains. Il s'agit d'un changement par rapport à la formation, où les laboratoires d'IA relient de nombreuses puces Nvidia en un seul ordinateur pour analyser d'énormes quantités de données afin de perfectionner leurs modèles d'IA.

Ces agents devraient devenir si nombreux que les humains qui leur demandent de travailler auront même besoin d'une nouvelle couche de cadres intermédiaires de l'IA - ce que les technologues appellent une couche d'"orchestration" - pour s'interposer entre les utilisateurs humains et leurs flottes d'agents.

D'une certaine manière, selon les analystes, c'est une bonne chose pour Nvidia, car cela indique que l'IA devient plus utile.

Mais ces tâches, largement connues sous le nom d'"inférence" dans l'industrie de l'IA, peuvent également être exécutées sur d'autres types de puces, y compris celles que les grands clients de Nvidia, tels qu'OpenAI et Meta META.O , qui a récemment déclaré qu'il prévoyait de lancer de nouvelles puces d'IA tous les six mois , peuvent construire pour eux-mêmes.

"Nvidia va certainement faire face à une plus grande concurrence qu'il y a un an", a déclaré KinNgai Chan, directeur général chez Summit Insights Group. "Nvidia détient encore aujourd'hui près de 90 % des parts de marché sur les marchés de la formation et de l'inférence."

"Nous pensons que Nvidia commencera à perdre des parts à partir de 2027, une fois que les programmes ASIC internes auront pris de l'ampleur, en particulier sur le marché de l'inférence", a-t-il déclaré, faisant référence aux circuits intégrés spécifiques à une application, des puces conçues pour une fonction unique ou une charge de travail personnalisée, offrant une meilleure efficacité que les unités de traitement graphique à usage général.

NVIDIA RENFORCE SES DÉFENSES

La société a dépensé 17 milliards de dollars en décembre pour acheter Groq, une start-up spécialisée dans les puces informatiques rapides et bon marché. Parlant de Groq lors de la conférence téléphonique sur les résultats de l'entreprise le mois dernier, M. Huang a déclaré que l'entreprise montrerait à la GTC comment Nvidia peut intégrer la technologie d'IA ultrarapide de Groq à sa plateforme CUDA existante.

William McGonigle, analyste chez Third Bridge, a déclaré que son entreprise s'attend à ce que Nvidia lance une nouvelle ligne de serveurs qui combinera les puces de Groq avec les technologies de réseau de Nvidia pour créer un produit rapide et rentable.

Un autre type de puce qui représente une menace concurrentielle croissante pour Nvidia est l'unité centrale de traitement, ou CPU, le type de puce longtemps défendu par Intel

INTC.O et Advanced Micro Devices AMD.O .

Bien que ces puces aient été reléguées au second plan par les processeurs graphiques de Nvidia (GPU) ces dernières années, M. McGonigle a déclaré qu'elles étaient "de nouveau au centre des préoccupations" et s'attend à ce que Nvidia présente des serveurs n'utilisant que ses CPU, dont M. Huang a parlé lors d'une récente conférence téléphonique sur les résultats.

"Avec l'essor de l'IA agentique, le goulot d'étranglement se situe désormais au niveau de l'orchestration de l'agent, qui est effectuée par les CPU", a déclaré M. McGonigle.

Les analystes s'attendent également à ce que Nvidia explique pourquoi elle a investi 2 milliards de dollars chacun dans Lumentum et Coherent , deux entreprises qui fabriquent des lasers permettant d'envoyer des informations entre les puces sous la forme de faisceaux de lumière. L'utilisation de ces lasers dans ce que l'on appelle les optiques co-packagées pourrait contribuer à accélérer les connexions entre les puces de Nvidia à l'intérieur d'énormes centres de données, mais ils ne sont actuellement pas fabriqués en volumes suffisamment importants pour correspondre au nombre de puces vendues par Nvidia chaque année.

"Nvidia présentera probablement les optiques co-packagées comme la clé pour connecter plus efficacement les clusters d'IA massifs, mais le défi est de les rendre suffisamment abordables pour les déployer à grande échelle ", a déclaré Bourne d'eMarketer.

Valeurs associées

192,9844 USD NASDAQ -2,40%
45,4343 USD NASDAQ +0,41%
611,9800 USD NASDAQ -4,11%
180,1150 USD NASDAQ -1,65%

0 commentaire

Signaler le commentaire

Fermer

A lire aussi

Mes listes

Cette liste ne contient aucune valeur.
Chargement...